LLM COURSE W10第十一周TRANSFORMERS

1111310035-阮文孟

 

 

1. INTRODUCTION

 

2.LLM COURSE

 

3.    COLAD Transformers,_what_can_they_do_

4. Transformers,_what_can_they_do_sentiment-analysis

5. zero-shot-classification

6. text-generation

 

6. text-generation", model="distilgpt2

 

text-generation  (2)
max_length=30

 

 

7. Mask filling  填字

unmasker = pipeline("fill-mask")

 

8. Ner   辨識 簡稱 PER/ORG/LOC

 

ner = pipeline("ner", grouped_entities=True)

ner("My name is Sylvain and I work at Hugging Face in Brooklyn.")

 

 

9. Image classification

from transformers import pipeline

image_classifier = pipeline(

task="image-classification", model="google/vit-base-patch16-224"

)

result = image_classifier(

"https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/pipeline-cat-chonk.jpeg"

)

print(result)

 

10. Transformers

 

在第二行我已經上傳了我自己的狗和貓的照片,但出現了錯誤,而我一直無法解決這個問題

 

 

 

 

 

 

 

 

 

在這次的課程中,我學到了許多與人工智慧語言模型相關的重要概念,特別是 NLP(自然語言處理)、LLM(大型語言模型)以及 Transformer 的核心架構。課程中介紹了 HuggingFace 這個平台,讓我了解到它不只是提供模型下載,也能讓使用者快速體驗各種 NLP 任務,例如情緒分析、關鍵字抽取、摘要、翻譯及影像分類等,只需要幾行程式碼就能完成,非常方便。

透過課堂示範,我首次理解 Transformer 的注意力機制(Attention),也明白為什麼現今主流的語言模型都採用這種架構。這讓我對 AI 如何「理解語言」有更具體的概念。課程後段的 TensorFlow/Keras 實作,也讓我體驗到自己訓練一個簡單影像分類模型的流程,包括資料集整理、模型訓練、驗證與微調。雖然實作過程不容易,但讓我獲得實際操作深度學習的寶貴經驗。

整體來說,本次課程不僅提升了我對 NLP LLM 的理解,也讓我更有信心在未來繼續深入 AI 領域。